Our goal is to reconstruct tomographic images with few measurements and a low signal-to-noise ratio. In clinical imaging, this helps to improve patient comfort and reduce radiation exposure. As quantum computing advances, we propose to use an adiabatic quantum computer and associated hybrid methods to solve the reconstruction problem. Tomographic reconstruction is an ill-posed inverse problem. We test our reconstruction technique for image size, noise content, and underdetermination of the measured projection data. We then present the reconstructed binary and integer-valued images of up to 32 by 32 pixels. The demonstrated method competes with traditional reconstruction algorithms and is superior in terms of robustness to noise and reconstructions from few projections. We postulate that hybrid quantum computing will soon reach maturity for real applications in tomographic reconstruction. Finally, we point out the current limitations regarding the problem size and interpretability of the algorithm.
translated by 谷歌翻译
Generalizability of time series forecasting models depends on the quality of model selection. Temporal cross validation (TCV) is a standard technique to perform model selection in forecasting tasks. TCV sequentially partitions the training time series into train and validation windows, and performs hyperparameter optmization (HPO) of the forecast model to select the model with the best validation performance. Model selection with TCV often leads to poor test performance when the test data distribution differs from that of the validation data. We propose a novel model selection method, H-Pro that exploits the data hierarchy often associated with a time series dataset. Generally, the aggregated data at the higher levels of the hierarchy show better predictability and more consistency compared to the bottom-level data which is more sparse and (sometimes) intermittent. H-Pro performs the HPO of the lowest-level student model based on the test proxy forecasts obtained from a set of teacher models at higher levels in the hierarchy. The consistency of the teachers' proxy forecasts help select better student models at the lowest-level. We perform extensive empirical studies on multiple datasets to validate the efficacy of the proposed method. H-Pro along with off-the-shelf forecasting models outperform existing state-of-the-art forecasting methods including the winning models of the M5 point-forecasting competition.
translated by 谷歌翻译
深度神经网络(DNN)模型越来越多地使用新的复制测试数据集进行评估,这些数据集经过精心创建,类似于较旧的和流行的基准数据集。但是,与期望相反,DNN分类模型在这些复制测试数据集上的准确性上表现出显着,一致且在很大程度上无法解释的降解。虽然流行的评估方法是通过利用各自测试数据集中可用的所有数据点来评估模型的准确性,但我们认为这样做会阻碍我们充分捕获DNN模型的行为以及对其准确性的现实期望。因此,我们提出了一种原则性评估协议,该协议适用于在多个测试数据集上对DNN模型的准确性进行比较研究,利用可以使用不同标准(包括与不确定性相关信息)选择的数据点子集进行的子集。通过使用此新评估协议,我们确定了(1)CIFAR-10和Imagenet数据集上$ 564 $ DNN型号的准确性,以及(2)其复制数据集。我们的实验结果表明,已观察到的基准数据集及其复制之间观察到的准确性降解始终较低(即模型在复制测试数据集上的性能更好),而不是在已发表的作品中报告的准确性退化,并依靠这些已发表的作品依赖于常规评估。不利用不确定性相关信息的方法。
translated by 谷歌翻译
对于在城市环境中导航的自主机器人,对于机器人而言,要保持在指定的旅行路径(即小径),并避免使用诸如草和花园床之类的区域,以确保安全和社会符合性考虑因素。本文为未知的城市环境提供了一种自主导航方法,该方法结合了语义分割和激光雷达数据的使用。所提出的方法使用分段的图像掩码创建环境的3D障碍物图,从中计算了人行道的边界。与现有方法相比,我们的方法不需要预先建造的地图,并提供了对安全区域的3D理解,从而使机器人能够计划通过人行道的任何路径。将我们的方法与仅使用LiDAR或仅使用语义分割的两种替代方案进行比较的实验表明,总体而言,我们所提出的方法在户外的成功率大于91%的成功率,并且在室内大于66%。我们的方法使机器人始终保持在安全的旅行道路上,并减少了碰撞数量。
translated by 谷歌翻译
当人类共同完成联合任务时,每个人都会建立一个情况的内部模型以及如何发展。有效的协作取决于这些单个模型如何重叠以在团队成员之间形成共同的心理模型,这对于人类机器人团队中的协作流程很重要。准确的共享心理模型的发展和维护需要个人意图的双向交流以及解释其他团队成员意图的能力。为了实现有效的人类机器人协作,本文介绍了人类机器人团队合作中新型联合行动框架的设计和实施,利用增强现实(AR)技术和用户眼目光来实现意图的双向交流。我们通过与37名参与者的用户研究测试了我们的新框架,发现我们的系统提高了任务效率,信任和任务流利。因此,使用AR和眼睛凝视使双向交流是一种有前途的平均值,可以改善影响人与机器人之间协作的核心组成部分。
translated by 谷歌翻译
机器学习已被用来识别脸上的情绪,通常是通过寻找8种不同的情绪状态(中性,快乐,悲伤,惊喜,恐惧,厌恶,愤怒和鄙视)。我们考虑两种方法:基于面部标志的功能识别和所有像素的深度学习;每个产生总体准确性58%。但是,他们在不同的图像上产生了不同的结果,因此我们提出了一种结合这些方法的新的元分类器。它以77%的精度产生更好的结果
translated by 谷歌翻译
有条件的随机测试(CRTS)评估了一个变量$ x $是否可以预测另一个变量$ y $,因为观察到了协变量$ z $。 CRT需要拟合大量的预测模型,这通常在计算上是棘手的。降低CRT成本的现有解决方案通常将数据集分为火车和测试部分,或者依靠启发式方法进行互动,这两者都会导致权力损失。我们提出了脱钩的独立性测试(饮食),该算法通过利用边际独立性统计数据来测试条件独立关系来避免这两个问题。饮食测试两个随机变量的边际独立性:$ f(x \ hid z)$和$ f(y \ mid z)$,其中$ f(\ cdot \ mid z)$是有条件的累积分配功能(CDF)。这些变量称为“信息残差”。我们为饮食提供足够的条件,以实现有限的样本类型误差控制和大于1型错误率的功率。然后,我们证明,在使用信息残差之间的相互信息作为测试统计数据时,饮食会产生最强大的有条件测试。最后,我们显示出比几个合成和真实基准测试的其他可处理的CRT的饮食能力更高。
translated by 谷歌翻译
低精度算术对神经网络的训练产生了变革性的影响,从而减少了计算,记忆和能量需求。然而,尽管有希望,低精确的算术对高斯流程(GPS)的关注很少,这主要是因为GPS需要在低精确度中不稳定的复杂线性代数例程。我们研究以一半精度训练GP时可能发生的不同故障模式。为了避免这些故障模式,我们提出了一种多方面的方法,该方法涉及具有重新构造,混合精度和预处理的共轭梯度。我们的方法大大提高了低精度在各种设置中的偶联梯度的数值稳定性和实践性能,从而使GPS能够在单个GPU上以10美元的$ 10 $ 10 $ 10 $ 10 $ 10的数据点进行培训,而没有任何稀疏的近似值。
translated by 谷歌翻译
随机微分方程的系统定义了一系列随机波动率模型。尽管这些模型在金融和统计气候学等领域中取得了广泛的成功,但它们通常缺乏在历史数据上条件产生真正的后验分布的能力。为了解决这一基本限制,我们展示了如何将一类随机波动率模型重新塑造为具有专门协方差函数的层次高斯工艺(GP)模型。该GP模型保留了随机波动率模型的电感偏差,同时提供了GP推断给出的后验预测分布。在此框架内,我们从研究良好的域中汲取灵感,以引入新的型号,即Volt和Magpie,这些模型在库存和风速预测中的表现明显超过了基线,并且自然扩展到多任务设置。
translated by 谷歌翻译
贝叶斯优化(Bayesopt)是查询有效连续优化的黄金标准。然而,决策变量的离散,高维质阻碍了其对药物设计的采用。我们开发了一种新方法(LAMBO),该方法通过判别性多任务高斯流程主管共同训练Denoising AutoCododer,从而使基于梯度的多目标采集功能优化了自动装编码器的潜在空间。这些采集功能使Lambo能够在多个设计回合上平衡探索探索折衷方案,并通过在Pareto边境上的许多不同地点优化序列来平衡客观权衡。我们在两个小分子设计任务上评估了兰博,并引入了优化\ emph {在硅}和\ emph {Inter {In Betro}特性的新任务。在我们的实验中,兰博的表现优于遗传优化者,并且不需要大量的预处理,表明贝叶诺斯对生物序列设计是实用且有效的。
translated by 谷歌翻译